“所有高科技都是西方人發(fā)明的”“歷史是可以捏造的”……近期,某款兒童智能手表頻出“毒答案”事件引發(fā)社會普遍關(guān)注,也觸發(fā)了人們對人工智能(AI)新的擔(dān)憂:眼下,越來越多的AI生成功能被集成到手機手表等個人智能終端中,隨著個人智能終端向低齡人群普及,AI生成所表現(xiàn)出來的“三觀”對未來人們的“三觀”將產(chǎn)生重大而深遠的影響。人們不得不思考,未來人們的認(rèn)知和思想會不會被AI“控制”?誰又來給AI的“三觀”把關(guān)?
AI主要是基于大規(guī)模數(shù)據(jù)集訓(xùn)練而形成學(xué)習(xí)和生成能力,在初始的海量數(shù)據(jù)訓(xùn)練中,AI并不具備辨識能力,只會將開發(fā)者提供的海量數(shù)據(jù)“照單全收”。這意味著,AI也有可能海量吸收那些違背社會主流價值觀的數(shù)據(jù)信息。目前,國內(nèi)外AI大模型均處于飛速迭代中,開發(fā)者往往重視AI在學(xué)習(xí)、集成、生成等方面的技術(shù)研發(fā),卻忽略對AI所承載的倫理責(zé)任的審視。在急于將新產(chǎn)品推向市場、搶占市場份額的同時,往往會省卻篩選生成內(nèi)容等步驟。如果缺少穩(wěn)固的倫理防線,AI生成產(chǎn)品的潛在風(fēng)險無疑是巨大的。
任何一款A(yù)I的培育過程都凝聚著開發(fā)者的心血,也同樣凝聚著開發(fā)者的立場和思想。如果開發(fā)者從培育AI之初,就有目的地塑造訓(xùn)練,那么AI也大抵會“長”成開發(fā)者所希望的樣子。開發(fā)者的立場和思想會通過AI強大的傳播力,形成廣泛滲透,對人們的思想行為產(chǎn)生重大影響。如果這一過程得不到外部相應(yīng)的干預(yù)引導(dǎo),那這款A(yù)I很有可能會成為開發(fā)者實現(xiàn)一己愿望的工具。
為AI樹立正確的“三觀”,亟待從國家層面建立一套嚴(yán)格的倫理審查機制,切實監(jiān)督AI生成產(chǎn)品所具備的功能,對訓(xùn)練數(shù)據(jù)進行仔細篩選和檢查,確保人工智能所學(xué)習(xí)的知識范圍正向、客觀,符合社會主流價值觀。同時,要對AI產(chǎn)品進行持續(xù)優(yōu)化和改進,使用經(jīng)過篩選的干凈數(shù)據(jù)集來訓(xùn)練人工智能,及時排查可能出現(xiàn)的“三觀”偏差問題,不斷提高AI生成產(chǎn)品的質(zhì)量和可靠性。在AI生成內(nèi)容后,還應(yīng)進行再評估,對人們從中獲取到的信息進行價值觀判斷,以確保其滿足社會主流價值觀標(biāo)準(zhǔn)。
此外,社會各界也應(yīng)加強對AI的監(jiān)督,不能任其“野蠻生長”。有關(guān)部門和相關(guān)機構(gòu)應(yīng)當(dāng)明確界限,制定法律法規(guī),規(guī)范AI產(chǎn)品的開發(fā)和銷售,為技術(shù)倫理“拉一條準(zhǔn)繩”。消費者應(yīng)利用反饋機制,及時反映產(chǎn)品出現(xiàn)的不良現(xiàn)象。平臺作為AI服務(wù)的提供者,則應(yīng)當(dāng)加強生成內(nèi)容的自審把關(guān),加強技術(shù)的倫理審核,從各個環(huán)節(jié)消滅“毒答案”生成的土壤。